液冷技术现阶段需求驱动“核心是 PUE”,未来规模应用“关键是 TCO”。
日前,中国移动、中国电信、中国联通三家基础电信运营企业面向业界发布了《电信运营商液冷技术白皮书》(以下简称“白皮书”),该白皮书不仅分析了数据中心目前面临的形势和液冷技术发展现状,还介绍了电信运营商液冷技术实践和目前的发展挑战,在“东数西算”与“双碳”的目标与愿景下备受业界关注。
当前,伴随着我国数字经济蓬勃发展,AI、智算需求高速增长,新型数智化应用日新月异,高密、高算力等多样性算力基础设施持续发展,推动制冷新需求。同时,面对绿色发展,政府部门对数据中心PUE(电能利用效率)要求越来越高,那么,对于数据中心建设,液冷技术如何化身使能器?
打造绿色低碳新型数据中心
数据中心是数据流接收、处理、存储与转发的“中枢大脑”,数智时代,5G/AI促使非结构化数据爆发,计算进入多元化发展阶段,同时,在“双碳”宏观形势下,政府部门近年陆续出台多项文件,对数据中心PUE监管要求不断提高、达标时间不断提前。
2021年5月发改委、信部等部门联合发布的《全国一体化大数据中心协同创新体系算力枢纽实施方案》中要求“推动数据中心采用液冷、机柜模块化、余热回收利用等节能技术模式”;2021年7月工信部《新型数据中心发展三年行动计划(2021-2023 年)》要求“加强核心技术研发。鼓励企业加大技术研发投入,开展新型数据中心预制化、液冷等设施层,专用服务器、存储阵列等IT层,总线级超融合网络等网络层的技术研发”;2021年11月发改委《贯彻落实碳达峰碳中和目标要求 推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》明确“支持采用液冷等方式”。
宏观来看,我国液冷技术起步稍晚于国外,但起步后以运营商为代表带动产业链发展迅速,后期与国外发展进程基本同步,并且在液冷规模试点应用方面积累了丰富经验。
其中,中国移动针对冷板式液冷与浸没式液冷,主动布局,按步骤、分阶段、积极在数据中心与 5G 基站等场所开展了液冷系统试点应用,对液冷技术的安全性、稳定性、节能性等进行测试验证。
中国电信深入开展数据中心绿色低碳化建设,大力推进“要素升级、集成创新”,突出创新发展、低碳发展,积极开展液冷技术研究和试点试用。
中国联通根据发展需求和 IT 设备单机功耗变化特点,积极响应国家绿色节能、低碳政策要求,主动开展液冷基础理论技术、产品设备、实际使用方面的研究交流,并结合实际进行液冷技术探索与应用。
超聚变算力基础设施领域总裁唐启明指出,大规模的数据中心运维复杂程度加大,宕机成本高,如何助力高算力、高安全、绿色低碳新型数据中心建设,成为关注焦点,算力基础设施建设正面临网络化、智能化、绿色化。
标准化、规模化掣肘
液冷顾名思义是用液体作为冷媒,利用液体流动将数据中心IT设备的内部元器件产生的热量传递到设备外,使IT设备的发热部件得到冷却,从而保障IT设备在安全温度范围内正常运行。
随着云计算和大数据技术的蓬勃发展,IT设备性能逐步提高,直接导致服务器功耗不断增加,特别是作为服务器关键部件的CPU,随着性能提升功耗增加的幅度非常显著,对散热技术提出了更高的要求,液冷技术利用液体较高的比热容和换热能力可以支撑更高功率散热,正在逐步成为新型制冷需求。
记者了解到,关于液冷技术主要包括冷板式液冷、浸没式液冷和喷淋式液冷技术三种。
冷板式液冷是服务器芯片等高发热元件的热量通过冷板间接传递给液体进行散热,低发热元件仍通过风冷散热的一种方式。
浸没式液冷是服务器完全浸入冷却液中,全部发热元件热量直接传递给冷却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。其中,冷却液循环流动的方式为单相浸没式液冷,冷却液蒸发冷凝相变的方式为相变浸没式液冷,相变浸没式液冷控制更复杂、要求更高。
喷淋式液冷是用冷却液直接喷淋芯片等发热单元,通过对流换热进行散热的一种方式。
液冷技术的出现,相较于风冷系统其从根本上改善了主设备的散热形式,更能满足高密机柜、芯片级精确制冷,具有更节能、更节地、噪声低等优点,当前,冷板式液冷、单相浸没式液冷为主要形式。
以芯片降温为例,在芯片演进趋势上,芯片TDP设计功耗不断增长,单个CPU功耗已达到350W,单个GPU功耗已达到 500W,目前各液冷技术均可满足未来较长时间芯片散热需求,如冷板式液冷可减小接触热阻、微通道设计等加强换热,浸没及喷淋式液冷可改善流场等。
然而,当前液冷技术尚存在生态不完善、投资成本高等问题,各家产品形态各异,产品规范化程度较低,机柜与服务器深度耦合,尚无统一接口标准,难以标准化、规模化推广应用。
值得关注的是,在液冷方案演进上,现阶段冷板式液冷无法解决服务器全部散热等问题,浸没式液冷目前主要存在冷却液物性要求高、服务器定制化程度高与现有基础设施体系不兼容、生态不完善等问题,随着冷却液国产化替代性能的提升,流场优化不断完善、产业生态不断成熟,浸没式液冷应用场景将进一步拓展。另外,相变浸没式液冷控制复杂、要求高,喷淋式液冷应用仍较少。
总体来看,冷板式液冷与单相浸没式液冷各有优劣,生态均需完善,两者演进均尚需时日,未来一定时间内将并存发展,为当前业内发展主流。
从“PUE”到“TCO(总成本)”:推动液冷技术向上发展
从产业生态来看,液冷产业也包含上中下游,包括上游的产品零部件提供商、中游的液冷服务器提供商及下游的算力使用者。
伴随双碳目标和东数西算工程推进,算力基础设施在适配多样性算力需求同时,也要满足绿色数据中心能效建设要求,产业链中游的服务器提供商正成为液冷创新的主力军。
其中,华为发布全液冷“天成”多样性算力平台,针对政务云数据中心、一体化大数据中心、运营商算力中心、算力枢纽等场景,通过系统级工程创新等方式,实现更好的有效算力CUE,并采用等同于纯水的工质,让液冷可以规模化部署,让维护更简单,让算力更加高效。
超聚变推出FusionPoD整机柜服务器,以提升数据中心运营效率为设计理念,通过先进的集中供电、总线盲插和原生液冷技术,将制冷PUE低至1.06,获得全球首个TUV南德制冷PUE能效认证及全球首个TUV莱茵液冷防泄漏认证。
为完善液冷产业标准化和生态建设、促进液冷技术有序发展,开辟数据中心液冷行业高质量发展道路,《白皮书》提出三大着力点。
一是凝聚合力、加强合作。进一步加强需求使用单位、生产企业、高校和研究单位的合作交流,建立协同发展机制,通过对关键技术领域的联合攻关、联合试点、联合推广等,加速技术创新与技术成熟,形成从基础技术研究、产品开发应用对接和商业落地的全生命周期闭环,确保液冷技术自主可控、产业可持续发展,为液冷技术高质量发展提供基础保障。
二是完善标准、推进生态。探索液冷基础设施侧与主设备侧的解耦,推进机柜与服务器间接口的统一及标准化,形成电信运营商液冷技术标准,加速解耦产品研发和孵化,形成一系列具备自主知识产权的核心产品,全方位构建技术和产品能力。本最优、合作共赢的“新生态”。
三是示范验证、加快推广。打造若干个试点示范,加快测试验证,以点带面,探索液冷解决方案的新应用、新模式、新生态,形成可复制、可推广的经验和做法,推动液冷产业成熟与规模应用。
业内专家指出,液冷技术现阶段需求驱动“核心是 PUE”,未来规模应用“关键是 TCO”。液冷技术的高质量发展关键在于完善生态,电信运营商将从传统意义的单纯用户,转变成为液冷生态的主导者、设计者、构筑者,吸纳产学研用各界伙伴开展合作,凝聚共识、深度协同、创新攻关、融通发展,携手构筑技术领先、开放共享、自主可控、成本最优、合作共赢的“新生态”。